我们介绍Protopool,一个可解释的图像分类模型,其中包含类的原型池。培训比现有方法更直接,因为它不需要修剪阶段。通过向特定类别引入完全可分辨分配的原型来获得它。此外,我们介绍了一种新的焦点相似度,将模型集中在罕见的前景特征上。我们表明Protopool在Cub-200-2011和斯坦福汽车数据集上获得最先进的准确性,大大减少了原型的数量。我们提供了对方法和用户学习的理论分析,以表明我们的原型比具有竞争方法所获得的原型更具独特。
translated by 谷歌翻译
最近,引入了图像表示学习的自我监督方法,以与其完全监督的竞争对手相比,以较高的结果或卓越的结果提供了解释自我监督的方法的相应努力。在这一观察过程中,我们引入了一个新颖的视觉探测框架,用于通过利用自然语言处理中使用的探测任务来解释自我监督模型。探测任务需要有关图像部分之间语义关系的知识。因此,我们提出了一种系统的方法来获得视觉,视觉,上下文和分类学等自然语言的类似物。我们的建议基于Marr的视觉计算理论和质地,形状和线条等特征。我们在解释自我监督的表示的背景下显示了这些类似物的有效性和适用性。我们的主要发现强调,语言和视觉之间的关系可以作为发现机器学习模型如何工作(独立于数据模式)的有效但直观的工具。我们的工作打开了大量的研究途径,通向更可解释和透明的AI。
translated by 谷歌翻译